-
1 Markov chains
Макаров: цепи Маркова -
2 embedded Markov chains technique
Математика: метод вложенных цепей МарковаУниверсальный англо-русский словарь > embedded Markov chains technique
-
3 imbedded Markov-chains method
Контроль качества: метод вложенных цепей МарковаУниверсальный англо-русский словарь > imbedded Markov-chains method
-
4 theory of Markov chains
Математика: теория цепей МарковаУниверсальный англо-русский словарь > theory of Markov chains
-
5 imbedded Markov-chains method
The English-Russian dictionary on reliability and quality control > imbedded Markov-chains method
-
6 Markov
марковский theor of Markov chains ≈ теория цепей Маркова - Markov behavior - Markov chain - Markov process - Markov propertyМарковское -
7 Markov’s chains
цепи Маркова; предложенная А.А. Марковым математическая модель для описания последовательности случайных величин En. -
8 Markov's chains
цепи Маркова; предложенная А.А. Марковым математическая модель для описания последовательности случайных величин En.
См. также в других словарях:
Markov chains — probability theory based on sequences of random variables (named for mathematician Andrei Markov) … Eponyms, nicknames, and geographical games
Examples of Markov chains — This page contains examples of Markov chains in action. Contents 1 Board games played with dice 2 A center biased random walk 3 A very simple weather model 3.1 Pr … Wikipedia
Markov decision process — Markov decision processes (MDPs), named after Andrey Markov, provide a mathematical framework for modeling decision making in situations where outcomes are partly random and partly under the control of a decision maker. MDPs are useful for… … Wikipedia
Markov Chain Monte Carlo — Verfahren (kurz MCMC Verfahren; seltener auch Markov Ketten Monte Carlo Verfahren) sind eine Klasse von Algorithmen, die Stichproben aus Wahrscheinlichkeitsverteilungen ziehen. Dies geschieht auf der Basis der Konstruktion einer Markow Kette,… … Deutsch Wikipedia
Markov chain — A simple two state Markov chain. A Markov chain, named for Andrey Markov, is a mathematical system that undergoes transitions from one state to another, between a finite or countable number of possible states. It is a random process characterized … Wikipedia
Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Eigenschaft — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Prozess — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia